떡밥위키
최근 변경
최근 토론
특수 기능
파일 올리기
작성이 필요한 문서
고립된 문서
고립된 분류
분류가 되지 않은 문서
편집된 지 오래된 문서
내용이 짧은 문서
내용이 긴 문서
차단 내역
RandomPage
라이선스
IP 사용자
13.58.76.154
설정
다크 모드로 전환
로그인
접속자 폭증으로 서버 상태가 원활하지 않습니다 |
소유권 이전과 관련한 공지
대규모 언어 모델
(r2 문단 편집)
닫기
RAW 편집
미리보기
=== 스케일링 법칙(Scaling Laws) === 모델의 파라미터 수, 학습 데이터셋의 크기, 사용된 연산량(compute)이 증가할수록 LLM의 성능이 예측 가능하게 향상된다는 경험적 법칙이다[* OpenAI의 연구 "Scaling Laws for Neural Language Models" 등에서 제시되었다.] 이로 인해 LLM 개발 경쟁은 모델과 데이터의 규모를 키우는 방향으로 진행되는 경향이 있다.
요약
문서 편집을
저장
하면 당신은 기여한 내용을
CC BY-NC-SA 2.0 KR
으로 배포하고 기여한 문서에 대한 하이퍼링크나 URL을 이용하여 저작자 표시를 하는 것으로 충분하다는 데 동의하는 것입니다. 이
동의는 철회할 수 없습니다.
비로그인 상태로 편집합니다. 로그인하지 않은 상태로 문서 편집을 저장하면, 편집 역사에 본인이 사용하는 IP(13.58.76.154) 주소 전체가 영구히 기록됩니다.
저장
사용자
13.58.76.154
IP 사용자
로그인
회원가입
최근 변경
[불러오는 중...]